Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Evaluación económica e incertidumbre total (página 2)



Partes: 1, 2, 3

Cómo medir
el
riesgo y la incertidumbre

En una situación de incertidumbre no sólo
es importante hacer predicciones para evaluar una
inversión y decidir si rechazarla o no, sino poder tomar
cursos de acción complementarios que reduzcan las
posibilidades de fracaso. Un medio para reducir la incertidumbre
es obtener información antes de tomar la decisión,
ver, por ejemplo, la información acerca del mercado. Otra
alternativa es aumentar el tamaño de las operaciones, como
es el caso de las compañías petroleras que asumen
menos riesgos al perforar 50 pozos de petróleo que al
perforar uno. La diversificación es otro medio de
disminuir la incertidumbre en las inversiones; sobre todo, la
diversificación a través de productos o servicios
sustitutos, como el café y el té. Si el precio del
café sube demasiado y las ventas decrecen, se pueden
reemplazar por el té y así se pueden mantener
estables los ingresos de la firma. La decisión de
comercializar ambos productos puede ser tomada si se
prevén bajas substanciales en los precios. Es posible
encontrar inversiones A y B, independientes, pero cuyos valores
presentes netos varían según la situación
general de la economía y en forma contraria, de manera que
en promedio los beneficios de la firma se mantienen constantes
durante el período. Al ejecutar esta clase de inversiones
en forma simultánea, se puede eliminar o reducir el
riesgo. Este tipo de combinaciones es lo que buscan los grandes
grupos y fondos de inversión, al invertir en empresas de
muy diversa índole. También es lo que buscan, con
altos grados de refinamiento, los modelos de selección de
portafolio, como los de Markowitz (1952, 1959,1970) y Sharpe
(1963, 1964, 1985).En un artículo clásico, David B.
Hertz (1964) describe lo que se ha tratado de hacer para medir el
riesgo, y propone lo que se podría hacer para resolver
mejor el problema. Las ideas utilizadas tradicionalmente han
sido:

  • Predicciones más exactas. La reducción
    del error en las predicciones es útil, pero el futuro
    es siempre el futuro y siempre existirá algún
    grado de desconocimiento acerca de él, a pesar de que
    se cuenta con la tecnología que permite hacer
    predicciones más precisas.

  • Ajustes empíricos. Si un analista en forma
    sistemática sobrevalua o subvalúa el valor de
    las variables que estudia, se puede hacer correcciones a sus
    cálculos, de acuerdo con su comportamiento anterior.
    Esto a primera vista parece razonable, pero
    ¿qué hacer si los cálculos de ventas han
    resultado inferiores a lo real en 75% más del 25% de
    los casos y no han llegado a más del 40% en una sexta
    parte de las acciones emprendidas?

  • Revisar la tasa de descuento. Esto se podría
    aplicar aumentando la tasa mínima de descuento para
    dar una protección contra la incertidumbre. Sin
    embargo, la persona que toma decisiones debe saber
    explícitamente cuál es el riesgo que se asume y
    cuáles son las posibilidades de obtener el resultado
    esperado.

  • Cálculos de tres niveles. Calcular valores
    inferior, promedio y superior y determinar el VPN a partir de
    varias combinaciones de cálculos optimista, promedio y
    pesimista. Este enfoque no indica cuál de estos
    cálculos ocurrirá con mayor probabilidad y no
    presenta una idea clara de la situación. Sin embargo,
    si se evalúa el proyecto para el peor de los casos
    posibles y el VPN es positivo se debe aceptar sin
    duda.

  • Probabilidades selectivas. Consiste en calcular para
    una variable determinada todas las posibilidades que existen
    y con basado en esto, hallar las rentabilidades o valores
    presentes netos. El método que fue propuesto por Hertz
    (1964) utiliza las técnicas de simulación y se
    debe usar el computador. El análisis tiene tres
    etapas:

  • Cálculo el rango de valores de cada uno de
    los factores y dentro de cada rango asignar una probabilidad
    de ocurrencia a cada valor.

  • Seleccionar al azar, con base en la
    distribución probabilística de cada factor un
    valor particular del mismo. Este valor se combina con los
    valores de los demás factores y se calcula un
    indicador de la bondad de la alternativa (VPN o
    TIR).

  • Repetir el paso anterior muchas veces para obtener
    las probabilidades de ocurrencia de los valores posibles del
    indicador y basado en esto, calcular el valor esperado y las
    probabilidades de ocurrencia de ciertos rangos del indicador
    seleccionado. Este procedimiento es un análisis de
    sensibilidad muy amplio y exhaustivo.

Un problema típico de incertidumbre está
también asociado a la multiplicidad de objetivos que se
encuentran en una organización. Al establecer
ordenamientos y preferencias entran en juego los objetivos. Hasta
este punto solo se han considerado situaciones en que los
resultados se pueden referir a un solo objetivo de la
organización (maximización del beneficio
económico) y que además que los resultados son
cuantificables. Se ha supuesto que existe un solo objetivo o que
el individuo puede coordinarlos todos de manera que la
preferencia, la transitividad y el ordenamiento pueden
realizarse. La realidad no es tan fácil, pues las
organizaciones tienen múltiples objetivos y los resultados
no siempre se pueden medir. Lo que al final sucede es que el
análisis financiero-económico es uno de los
elementos de juicio, entre otros, para que el decisor seleccione
una alternativa. Shakespeare plantea la dificultad de decidir
cuándo hay múltiples Objetivos,
así:

El análisis de múltiples objetivos y de
intangibles no está completamente desarrollado, por lo
tanto, aquí se presenta una opción para hacer, por
lo menos, explícitos los objetivos y juicios de valor que
se puedan tener respecto de ciertas variables que no se pueden
medir. La dificultad estriba en que, a veces, los decisores no
son conscientes de los objetivos de la organización y
conviene contar con un método que permita hacer consciente
al decisor de los diferentes objetivos de la organización
y que además permita valorar los resultados de manera
subjetiva, pero internamente consistente. Otra vez, el proceso de
identificación

De objetivos y definición del problema es
básico para tomar buenas decisiones. El procedimiento
pretende resumir en un índice todos los aspectos
pertinentes al análisis, de manera que se pueda establecer
un ordenamiento de las alternativas. Si fuera factible obtener
una definición explícita de los objetivos de la
organización, se habría avanzado mucho en la
evaluación, pero se presentan dificultades para lograrlo.
Primero, no es fácil lograr que un gerente presente de
manera concreta los objetivos de la organización. Y esto
no es por ineptitud, sino porque el punto de vista de él
puede ser muy diferente del de los socios o de los miembros de la
junta o consejo directivo. Por otro lado, es imposible que una
persona aísle o elimine sus propias metas u objetivos del
análisis y de alguna manera éstos influyen en su
percepción. Segundo, como ya se dijo, las organizaciones
no tienen un solo objetivo, sino varios y por lo general son
conflictivos entre sí. Por ejemplo, la maximización
de utilidades puede estar en contradicción con mantener un
medio ambiente limpio o que la organización sea un sitio
de trabajo agradable. Por último, los cambios en los
cuadros directivos, en la composición de los accionistas,
la política económica del gobierno, la competencia,
etc., hacen que los objetivos varíen.

Si los objetivos o los intangibles se designan por O1,
O2 O3,…Om, los resultados de cada alternativa como R1, R2,
R3,…Rm y cada alternativa por A1, A2, A3,…Ak entonces se
pueden representar la calificación de cada alternativa
así:

V (Rm, Ak)

Este valor pretende evaluar qué tanto contribuye
a los diversos objetivos de la organización. En este caso
será necesario calificar tanto la importancia relativa de
cada objetivo, como el grado en que cada resultado contribuye a
cada uno de los objetivos. En el caso de resultados intangibles,
habrá que asignar valores subjetivos y consistentes a los
resultados y a la vez, examinar en cuánto contribuyen al
logro de cada objetivo. El procedimiento para calcular un
número que englobe todos los aspectos es relativamente
fácil. Lo primero que se debe hacer, entonces, es
identificar y cuantificar los factores que se van a utilizar para
hacer la evaluación. Se debe desarrollar una lista de los
factores pertinentes; algunos de estos factores pueden tener
implícita una medida numérica. Para cuantificar el
resto de los factores, se les debe calificar según alguna
escala numérica que corresponda a las diferentes
categorías establecidas. Por ejemplo, muy malo, malo,
regular, bueno y excelente, pueden ser las diferentes
categorías de determinado factor y se le puede asignar a
cada una de ellas un valor, por ejemplo, 0, 1, 2, 3 y 4. Hecho
esto se Debe asignar una ponderación o peso a cada factor,
en relación con los demás. El tercer paso consiste
en multiplicar la calificación de cada factor por el peso
respectivo y los resultados se suman para obtener el puntaje
final de cada alternativa. Se escoge la de mayor puntaje. Lo
más importante es lograr una consistencia interna entre
las calificaciones. Una manera de lograr esta consistencia es
acudir al procedimiento propuesto por Churchman y Ackoff (1954)
que consiste en hacer comparaciones por pares y entre cada factor
y la suma de las restantes. Estas comparaciones deberán
indicar numéricamente, lo que se aprecia de manera
subjetiva en cuanto a las preferencias. De esta manera se ajustan
los valores hasta cuando las comparaciones numéricas se
ajusten a las apreciaciones. Es decir, si un factor se prefiere a
otro, esta preferencia se debe reflejar en los pesos; lo mismo en
cuanto a la combinación de factores.

Ejemplo 3:

Si se evalúa la compra de un sistema de
procesamiento de datos y se consideran las siguientes variables
con sus respectivos pesos:

CARACTERISTICAS

PESO

SIGLA

MEMORIA PRINCIPAL DEL
COMPUTADOR

7

M

ALMACENAMIENTO

5

A

COSTO

10

C

PLAZO DE ENTREGA

7

P

BASE DE DATOS

9

B

El decisor deberá poder hacer comparaciones como
las siguientes:

Si los costos bajos son más importantes que todo
lo demás en conjunto,

Entonces:

C > M+A+P+B

10 < 7+5+7+9 = 28

El deberá, o revisar su apreciación de la
importancia de los factores o cambiar la calificación de
los mismos. Si fuera esto último, debe calificar a la
variable costo con más de 28 puntos, por ejemplo
30.

En general, debe hacer lo siguiente:

Comparar C con M+A+P+B Comparar M con
A+P+B

Comparar C con M+A+P Comparar M con
P+B

Comparar C con M+A Comparar M con
B

Comparar C con M Comparar A con
P+B

Comparar A con P Comparar P con
B

Y así sucesivamente para todas las combinaciones.
Al hacer esas comparaciones debe verificar si lo que dicen las
relaciones numéricas, coinciden con su apreciación
subjetiva de los pesos e importancia relativa de las
características. En caso de discrepancia, deberá
hacer los ajustes pertinentes hasta que las comparaciones
numéricas coincidan con las preferencias. Cuando se ha
llegado a un conjunto coherente de pesos, entonces se pueden
expresar como un porcentaje de la suma total de los pesos
asignados o asignar los puntajes de manera normalizada, esto es,
que sumen 100. Hecho esto, se puede proceder a producir un
indicador único que refleje la evaluación de cada
alternativa.

Ejemplo 4:

Si por ejemplo se estuvieran evaluando cuatro
alternativas (marcas) de acuerdo con las cinco
características anteriores, se podría llegar a una
tabla como la siguiente:

Monografias.com

Los porcentajes se redondearon a cero decimales. Lo
primero que debe hacerse es investigar si hay dominación,
o sea que una alternativa sea mejor que otra en todos los
aspectos. Esto sucede entre las alternativas b y c, por lo tanto
se elimina c del análisis, ya que b es superior en todos
los aspectos. El valor de cada alternativa puede determinarse
ponderando su calificación con el peso correspondiente,
así:

V(a) = 20×9 + 9×4 + 6×30 + 8×7 + 4×9 =
488; V(b) = 484 V(d) = 493.

Según este procedimiento, la mejor alternativa
sería la d con 493 puntos. Una variación
pequeña a este procedimiento es asignar los puntajes de
manera normalizada, o sea que sumen 100, como aparece en la
última fila de la tabla. El resultado es el
mismo.

Si la asignación original de pesos se variara y
fuera consistente con la apreciación subjetiva del
decisor, la evaluación sería, eliminando
también a c:

Monografias.com

V(a) = 20×18% + 9×13% + 6×26% + 8×18% +
4×24% = 8,73;

V (b) = 7,56;

V (d) =6,48.

Los porcentajes se redondearon a cero decimales. Ahora
la mejor sería la b. Esto indica que puede y debe hacerse
un análisis de sensibilidad para determinar qué
tanta variación en la decisión se presenta al
cambiar los pesos. La asignación de ponderaciones y su
consistencia interna es de vital importancia. Muchas veces es
necesario recurrir a la opinión de expertos o inclusive,
de funcionarios de la misma organización. Cuando se debe
recurrir a personas dentro de la misma organización, puede
encontrarse que las personas lleguen a ser reacias a expresar de
manera explícita sus preferencias. Si esto ocurre,
todavía existe una opción para "descubrir" esas
opiniones.

Una posibilidad es el análisis de
regresión, el cual se podría aplicar a una serie de
pruebas a las cuales se somete a los funcionarios, tratando de
que califiquen en una escala numérica total, su
apreciación de la bondad de muchos casos reales o
ficticios, habiéndole indicado cuáles son los
factores a tener en cuenta. Con estos datos se puede hacer una
regresión múltiple con los pesos o ponderaciones
como variables y así descubrir las ponderaciones que mejor
se ajusten a los resultados.

Este enfoque lo que encuentra son las ponderaciones
implícitas que el evaluador asignó a cada factor.
Todas estas ponderaciones son subjetivas; y aquí debe
recordarse que subjetividad y arbitrariedad no son lo mismo,
aunque en el lenguaje corriente a veces se intercambian. La
primera es algo personal producto de la experiencia y de la
cantidad de información que se posea; la segunda es
arbitrariedad. Hammond, Keeny y Raiffa (1999) citan a
Benjamín Franklin como el autor de un proceso que permite
hacer un análisis de los objetivos de Una manera parecida
al análisis de dominación, ya mencionado. Dice
Franklin:

Mi método es dividir media hoja de papel en
dos columnas con una línea: escribiendo en una el pro y en
la otra el contra. Luego, voy anotando bajo diversos
encabezamientos los diferentes motivos a favor o en contra de la
medida. Cuando los tengo ya todo reunido trato de estimar su
respectivo peso; y donde encuentro dos, uno a cada lado, que
parecen iguales, tacho los dos. Si encuentro una razón en
pro igual a dos en contra, tacho las tres. En efecto, he hallado
gran ventaja en esta forma de ecuación de lo que se puede
llamar el álgebra moral o prudencial."

Basándose en esta excelente idea Hammond, Keeny y Raiffa
(1999) proponen hacer intercambios entre objetivos, de forma que
se llegue a un objetivo que no discrimine entre las alternativas.
En el ejemplo de la compra del computador se podría
intercambiar precio por memoria o disco duro, de manera que un
precio menor se suba, pero a la vez se suba la capacidad en disco
duro o memoria por una cantidad equivalente que fija el analista.
Si el precio de una alternativa es $1 millón más,
pero tiene más memoria, ¿en cuánto debe
aumentarse el precio de otra alternativa con menos memoria para
que las memorias sean iguales? (¿cuánto adicional
está dispuesto a pagar el analista para que la alternativa
con menos memoria tenga igual memoria que la otra?). Este proceso
se hace hasta que cierto objetivo (característica en el
ejemplo) queda con igual valor para todas las alternativas. En
ese caso, el objetivo se puede eliminar, puesto que no hace
ninguna discriminación entre las alternativas. Esto, junto
con el análisis de dominación hace el problema
más sencillo.

Existe evidencia empírica de que cuando se
actúa de manera consistente, a partir de algún
procedimiento, se tiende a tomar mejores decisiones que cuando se
toman decisiones basadas sólo en procedimientos
intuitivos. Analizar con detalle las alternativas y hacer un
mejor proceso de decisión no garantiza que siempre se tome
la mejor decisión. Sin embargo, sí es más
probable que se tome una mejor decisión cuando se analiza
con juicio la situación. Estos modelos tienen la ventaja
de garantizar consistencia, basados en el criterio y en los
resultados históricos de las decisiones tomadas por un
decisor. No reemplazan al decisor, sino que incorporan su
experiencia y buen criterio en el procedimiento, de manera
sistemática y consistente.

Predicción

El proceso de predicción comienza con la
recolección de datos. Estos datos pueden ser obtenidos por
medio de experimentos o simplemente por la recopilación de
datos históricos. En el caso de la ejecución de
experimentos, por ejemplo, la duración de un determinado
producto o la simulación del comportamiento de una
variable (véase aparte sobre simulación), el
experimentador puede controlar ciertas variables y por lo tanto,
se puede lograr una mejor comprensión de las fuentes de
variación; en el caso de los datos históricos, nada
puede hacerse para controlar las variables que afectan los
resultados; éste sería el caso cuando se desea
pronosticar la demanda futura a partir del comportamiento de
ésta en el pasado. Debe recordarse lo estudiado en el
capítulo 6 sobre la identificación de las variables
más críticas, y sobre ellas sí hacer los
esfuerzos para mejorar la información obtenida. El paso
siguiente en el proceso de predicción es la
construcción de un modelo de inferencia estadística
para hacer el pronóstico. Estos modelos operan bajo
condiciones muy específicas, como son los supuestos de
independencia entre variables, las distribuciones de probabilidad
específicas, etc. Si estos supuestos no se cumplen, los
resultados obtenidos pueden perder toda validez. Al tomar
decisiones es posible que el grado de detalle y afinamiento de
los resultados sea innecesario; por lo tanto, es posible hacer
suposiciones fuertes y restrictivas a tal punto que violen las
condiciones específicas requeridas por el modelo en
cuestión. En estos casos, lo importante es conocer
qué condiciones no se están cumpliendo y
cuáles son las consecuencias, para actuar con la debida
precaución.

Apreciación

No siempre es posible partir de información
histórica para hacer pronósticos, entonces es
necesario aplicar el criterio, fruto de la experiencia, para
predecir lo que ocurrirá respecto de una
decisión. El buen criterio o buen juicio es algo que se
obtiene con mucho esfuerzo y paciencia; si bien es cierto que la
educación formal da una preparación para
adquirirlo, la mejor manera de refinar el criterio es a
través de la experiencia.

Al tomar algunas decisiones lo importante no es
determinar cuál es el valor preciso de una variable
determinada, sino si este valor sobrepasará o no cierto
valor crítico. En estos casos un cálculo o
apreciación de este valor será suficiente. Se
podría pensar en el principio de reducir la
discriminación requerida; este principio se puede enunciar
de la siguiente manera: cuando haya que determinar el valor de
una variable, encuentre el valor de esa variable para el cual la
decisión cambie de una alternativa a otra. De esta manera,
lo único que se necesita es determinar si el valor
calculado de la variable sobrepasa o no el valor

Crítico que hace cambiar la decisión. Al
tratar de determinar el valor de la(s) tasa(s) de descuento que
se va a utilizar para calcular el VPN de dos alternativas
mutuamente excluyentes, sólo se necesita saber si esta(s)
tasa(s) de descuento es(son) mayor(es) que el(los) valor(es)
crítico(s) estipulado(s).

Funciones con
más de una variable

Muchas veces es necesario pronosticar una variable que
depende, a su vez, de otras. Los costos totales de
operación de un equipo determinado se componen de mano de
obra, energía, mantenimiento, etcétera.

Matemáticamente se puede expresar así: C=f
(c1, c2, c3,…, cn) Se puede obtener el pronóstico de C
de dos formas: pronosticando C directamente o pronosticando los
componentes de C y a partir de allí hallar el valor de C,
por medio de la relación f (.). ¿Cuál de las
dos formas se debe utilizar? Esto depende de la varianza que se
obtenga en una u otra forma.

Monografias.com

Claramente se ve que la varianza
de

C a partir del pronóstico de las ci
es menor que a partir de C.

Métodos de
pronóstico

Las técnicas de pronóstico son una
herramienta necesaria para la planeación macro y
microeconómica. Para el caso del gerente, su que hacer
básico es la toma de decisiones con consecuencias futuras
y, por lo tanto, debe elaborar cálculos de lo que
sucederá. Por otro lado, debe prever escenarios que le
permitan anticiparse a las eventualidades que le indicarán
la conveniencia o inconveniencia de una alternativa. En
particular para analizar decisiones de inversión es
necesario hacer cálculos de muy diversas variables:
precios, tasas de interés, volúmenes de venta o de
producción, etcétera por lo tanto, es necesario que
el analista conozca, por lo menos la existencia de ciertas
técnicas que le ayuden en esta tarea. Para elaborar
pronósticos se puede encontrar dos grandes clases de
modelos: causales y de series de tiempo. Los primeros tratan de
encontrar las relaciones de causalidad entre diferentes
variables, de manera que, conociendo o prediciendo alguna o
algunas de ellas, se pueda encontrar el valor de otra. En el
segundo caso no interesa encontrar esas relaciones, sino que se
requiere solamente encontrar los posibles valores

Que asumirá una determinada variable. En todos
los casos siempre se hace uso de la información
histórica, ya sea para predecir el comportamiento futuro o
para suponer que el comportamiento histórico se
mantendrá hacia el futuro, y sobre esta base hacer los
cálculos. Se debe tener presente que no existe
ningún método de pronóstico infalible; lo
que hacen estos procedimientos es calcular un valor posible, pero
siempre sujeto a errores. Si el fenómeno que se va a
pronosticar fuera determinístico, solo bastaría
utilizar la ley matemática que lo rige y predecir con
exactitud el resultado; éste sería el caso de
fenómenos físicos, por ejemplo la caída
libre de un cuerpo. En el proceso de toma de decisiones se
involucra el comportamiento humano, a través de las
decisiones de los individuos a quienes está dirigido un
determinado producto o servicio; las decisiones del mercado
están compuestas por muchísimas decisiones
individuales, imposibles de predecir con exactitud. Una fuerte
limitación de los métodos de pronóstico es
la de suponer que las causas que determinaron los datos
históricos prevalecen y esto no siempre es
cierto.

Métodos de
descomposición

Un método de pronóstico para analizar,
series de tiempo es el de descomposición. Un paso
importante en el proceso de determinar el método de series
de tiempo adecuado es considerar los diferentes patrones que se
encuentran en los datos. Se pueden identificar cuatro patrones
típicos: horizontal o estacionaria, estacional,
cíclico y de tendencia. Se presenta un patrón
horizontal o estacionario (H) cuando los datos fluctúan
alrededor de un valor promedio constante. Las ventas que no
aumentan ni disminuyen con el tiempo son un ejemplo de este tipo
de comportamiento. Se presenta un patrón estacional (E)
cuando los datos están afectados por factores que se
repiten con cierta frecuencia (trimestral, mensual o en
determinadas fechas, por ejemplo, Navidad, Semana Santa,
etcétera).

Un patrón cíclico (C) se presenta debido a
efectos económicos de largo plazo y generalmente asociados
con el ciclo económico. La construcción de vivienda
puede ser un ejemplo de este tipo. Existe un patrón de
tendencia (T) cuando existe un aumento o disminución
secular de los datos. Las ventas de la mayoría de las
firmas presentan este comportamiento. Los métodos de
descomposición suponen que los datos contienen patrones
estacionales, cíclicos y de tendencia; una función
que representa esta relación puede ser la
siguiente:

Monografias.com

La mayoría de los datos incluyen combinaciones de
estas tendencias y se deben generar procedimientos para
separarlos. En el archivo PRONÓSTICO.XLS se presenta un
ejemplo detallado de este método. Existen otras clases de
pronósticos denominados cualitativos o de
pronóstico tecnológico, como el Método
Delphi. Este método busca, a través de
múltiples rondas o iteraciones donde se comparte la
información, encontrar consenso sobre valores o escenarios
posibles. Se hace énfasis en que no hay un método
de pronóstico perfecto, aunque se podría construir
un modelo que ajuste perfectamente los datos que se tienen de un
fenómeno; sin embargo, esto no es recomendable, puesto que
el elemento aleatorio o de error siempre estará presente y
será impredecible; es mejor identificar los patrones
predecibles y asumir el error que se presente que tratar de
introducir en el modelo el elemento error que, como se dijo, es
completamente impredecible e inevitable. En otras palabras,
cualquier cálculo implica un cierto grado de error
ineludible. Existen muchos métodos de pronóstico, y
en esta nota no se hará una revisión exhaustiva de
ellos. Además, para calificar la conveniencia de cada uno
de ellos se debe acudir al método de los mínimos
cuadrados, esto es, se considera el mejor método aquel que
minimiza la suma de los cuadrados de los errores (diferencias
entre el valor calculado y el observado). A pesar de la
eliminación de los supuestos sobre certidumbre total, los
enfoques presentados hasta ahora no permiten involucrar la
complejidad de la interacción de las muchísimas
variables que tienen que ver con un proyecto de inversión.
Para mencionar algunas de ellas, se puede pensar en:
¿qué tasa de interés será la adecuada
para el futuro? ¿Cuánto valdrá la
inversión? ¿Cuándo comenzará a
producir beneficios? ¿Por cuánto tiempo?
¿Cuánto tiempo habrá que invertir?
¿Qué mercado existirá?
etcétera.

Tasa de descuento
con análisis del riesgo

En el capítulo 2 se estudió que las tasas
de interés que se encuentran en el mercado, tienen
implícita una componente de riesgo y que a mayor riesgo,
mayor tasa de interés. En el capítulo 5 se
estudió el problema de la determinación de la tasa
de descuento y se definió que la tasa de descuento
debería ser la mayor entre el costo de oportunidad del
dinero y el costo de capital del mismo. En el capítulo
anterior se sugirió que cuando se introduce el elemento
riesgo de manera explícita, esto es, cuando se
analizan los flujos de caja basados en la distribución de
probabilidad de las variables que lo determinan, se debe utilizar
una tasa de interés libre de riesgo; de otra manera se
estaría contando doble el efecto del riesgo: una vez como
la componente de riesgo que hay en la tasa de interés y
otra cuando se reconoce la variación de manera
explícita, a través de una distribución de
probabilidad. Asimismo, se planteó que una de las formas
de manejar el problema del riesgo era, hace algunos años,
aumentar la tasa de descuento; en realidad lo que se hacía
era reconocer que para compensar el riesgo de una
inversión debería exigírsele más y
esto se lograba aumentando la componente de riesgo en la tasa de
descuento. Si el costo de capital –deuda más costo
de los fondos aportados por los inversionistas se puede
considerar como un dato determinado a priori para la
firma y no sujeto a riesgo para ella, puesto que está
determinado, entonces lo único que podría tener
involucrado el riesgo es la tasa o costo de oportunidad del
dinero, que sí debe ser considerado libre de riesgo. Esto
entonces significa que la tasa de descuento a utilizar cuando se
incluye el análisis del riesgo de manera explícita
estará determinada por la siguiente
expresión:

Tasa de descuento = Máx.
(Costo de capital;

Tasa de interés libre de
riesgo)

Simulación

Simulación, en el sentido más
común de la palabra, significa imitar. Y de esto se trata;
se va a imitar el comportamiento de un sistema a través de
la manipulación de un modelo que representa una realidad
La simulación ha sido utilizada desde hace mucho tiempo,
especialmente por los diseñadores; por ejemplo, se tiene
la prueba de modelos a escala de aeroplanos en túneles de
viento, modelos de represas, distribución en planta,
etcétera. Con el surgimiento de la investigación
operacional y con la disponibilidad de los computadores, esta
técnica ha sido y es de gran utilidad. Hay ciertos
problemas que son muy complejos y cuya solución
analítica es prácticamente imposible de hacer. Sin
embargo, Hillier (1963), en un artículo clásico,
propone una solución analítica basado en el teorema
del límite central de la estadística y dice que la
distribución del VPN, CAE o TIR es aproximadamente normal.
Debe observarse, y así lo dice, que hace caso omiso del
problema de la discrepancia entre los criterios y de la
posibilidad de múltiples tasas de interés.
Realmente esto no presenta una limitación al
método, ya que se han propuesto formas de eliminar las
discrepancias entre los criterios y de la posibilidad de
múltiples tasas internas de rentabilidad. Lo que propone
él es enfrentar al decisor con las diferentes
probabilidades de obtener distintos valores del VPN de una
inversión. Más específicamente, la
probabilidad de que el VPN sea menor que cero. De acuerdo con el
método de Hillier, se tiene:

Monografias.com

Donde:

Y = Ingreso neto promedio
del periodo j

E (.) = Valor esperado de
la expresión que va dentro del
paréntesis

Ij = Flujo de caja del
período j

Var (.) = Varianza de la
expresión dentro del paréntesis

i = Tasa de descuento libre
de riesgo

N = Vida del proyecto en
años

j = Período que se
analiza

La distribución del VPN tiende a ser normal; los
resultados son mejores en la medida en que las distribuciones de
los diferentes componentes sean más cercanas a la
normal.

Ejemplo 5:

Para el caso del ejemplo mencionado al
comienzo del capítulo:

Monografias.com

El cálculo de esta probabilidad se puede hacer
con las funciones estadísticas de Excel=DISTR.NORM(x,
media, desv _ estándar, acum) o =DISTR.NORM.ESTAND
(Z).
En este punto el decisor posee toda la
información cuantitativa posible de obtener; deberá
ahora tomar una decisión que involucra su actitud hacia el
riesgo. El modelo no puede acompañar al decisor más
allá de la información cuantitativa; la
acción final de tomar una decisión es un acto de
soledad. Esto es, para algunos un 10% de probabilidad de que el
proyecto sea indeseable puede parecer poco, para otros, 2% es
excesivo. También en esto tiene que ver la cantidad de
dinero que esté en juego. Más adelante se estudia
lo relacionado con las actitudes hacia el riesgo. La propuesta de
Hillier supone un manejo analítico del problema; sin
embargo, la complejidad de las distribuciones de probabilidad
puede ser alta, de manera que conocer sus parámetros es
muy difícil o imposible. Aquí hay que advertir que
no sólo se trata de la complejidad de las distribuciones
de probabilidad, sino también, y sobre todo, de la
complejidad de las relaciones entre las diferentes variables. Un
caso ilustrativo es el ejemplo detallado del capítulo 6. A
pesar de que la técnica de simulación tiende a ser
un procedimiento costoso, es uno de los enfoques más
prácticos para abordar un problema. La simulación
implica la construcción de un modelo, el cual es
matemático en gran parte. Antes de describir el
comportamiento total del sistema, la simulación describe
la operación de ese sistema en términos de eventos
individuales de cada componente del sistema, cuyo comportamiento
se puede describir, por lo menos en términos de
distribuciones de probabilidad. La interrelación entre
estos componentes se puede involucrar dentro del modelo. La
combinación de los eventos posibles y el efecto de la
interrelación entre éstos, le permite al analista
determinar la configuración adecuada de los subsistemas.
Como la simulación trabaja con un número finito de
pruebas, se incurre en un error estadístico que hace
imposible garantizar que el resultado es el óptimo. De
hecho, muchas veces no se busca el óptimo de una
solución sino el comportamiento o tendencia de determinado
parámetro. Una manera cruda o aproximada de hacer una
simulación es la llamada técnica de Monte
Carlo.

Ejemplo 6:

VENTAS(unidades) PUNTO
MEDIO

FRECUENCIA
RELATIVA%

NUMEROS ALEATORIOS
ASIGNADOS

3.125

4

00-03

3.250

16

04-19

3.375

24

20-43

3.500

36

44-79

3.625

16

80-95

3.750

4

96-99

Suponga una inversión de $4.375.000 en un
sembrado cuyo fruto es perecedero. De acuerdo con datos
históricos, la demanda se ha comportado de la siguiente
forma:

Como las probabilidades tienen dos cifras
significativas, entonces se asignan 100 número de 00 a 99
(que tienen igual probabilidad de ocurrencia) en forma
proporcional a la probabilidad. Observe la tabla y
encontrará que para un evento con probabilidad 4 hay
asignados cuatro número (00 a 03)

Monografias.com

Suponga que el precio de venta de este artículo
es de $3.000. De modo que el ingreso bruto es: Unidades vendidas
x precio unitario. Supóngase, además que las
cantidades producidas han variado en la siguiente
forma:

PRODUCTO ( unidades) PUNTO
MEDIO

FRECUENCIA RELATIVA

NUMEROS ALEATORIOS
ASIGNADOS

3.248,75

10

00-09

3.373,75

35

10-44

3.498,75

43

45-87

3.623,75

12

88-99

Monografias.com

El costo variable unitario es $1.000. Lo producido por
encima de las ventas se considera una pérdida de $1.000
por unidad y las ventas no realizadas no acarrean pérdida.
Las ventas perdidas son la diferencia entre la demanda (ventas)
para el período y la cantidad producida. Con fundamento en
los datos de las distribuciones de probabilidad, se puede
determinar que el promedio de las ventas y de la
producción es el mismo y vale 3,445.00. Si se trabajara
con promedios, se tendría un ingreso neto al final de un
año de:

($3.000 x 3.445- 3.445.000) = 3.445.00 x
2.000

= $ 6.890.000

La rentabilidad promedio de esa inversión, en un
año, sería de 57,43%. Si se supone que las ventas y
la producción se comportarán en la misma forma como
lo han hecho históricamente, se puede generar una muestra
aleatoria. Si se desea que la probabilidad de ocurrencia sea
proporcional a la frecuencia con que han ocurrido los valores,
entonces, en el caso de la producción, la probabilidad de
que ocurra un valor alrededor de 3.498,75 debe ser 4,3 veces
mayor que la probabilidad de obtener un valor alrededor de
3.248,75. Para lograrlo en forma gráfica, se construye un
histograma de probabilidad acumulada y se usan números
aleatorios entre 00 y 99 para "entrar" a la gráfica por el
eje de las ordenadas. La asignación de los números
aleatorios es proporcional a la probabilidad de cada valor. A
partir de allí se localiza el valor de la variable
trazando un horizontal hasta "tocar" la gráfica y "bajar"
al eje de las abscisas para localizar el valor de la variable.
Entonces, simulando los valores de las ventas y de la
producción un número de veces suficientemente
grande, se puede obtener una distribución de frecuencia de
los ingresos netos y a su vez calcular las respectivas tasas
internas de rentabilidad o valores presentes netos. Con estos
valores, se construye la distribución de frecuencia y se
puede conocer la probabilidad de que la tasa interna de
rentabilidad sea mayor que la tasa de descuento utilizada o de
que el valor presente neto sea mayor que cero. Utilizando la
función =ALEATORIO () de Excel se pueden obtener
números aleatorios, que se comparan con el acumulado de la
probabilidad de la distribución y con ellos se pueden
simular valores para calcular ciertos parámetros como la
TIR o el VPN

Una forma más rigurosa de hacer el cálculo
estadístico del tamaño Adecuado de la muestra es
calcular la varianza del resultado (probabilidad de fracaso) para
un cierto número de simulaciones (por ejemplo, para
1.000); esta varianza se podría calcular para 30 corridas
de 1.000 simulaciones, y con esos datos calcular la varianza. Si
se supone que la distribución de esa probabilidad es
normal, se define un nivel de confianza por ejemplo,1% o
5%— y basándose en esa cifra se calcula la z de la
distribución normal. Así mismo, se calcula el error
absoluto que se está dispuesto a aceptar, en este caso el
número de puntos en porcentaje. Con estos datos se calcula
el tamaño de la "muestra" o sea, el número de
simulaciones que debe hacerse. La forma de calcular n es la
siguiente:

Monografias.com

Otro ejemplo: con los supuestos y datos del ejemplo
utilizado para ilustrar la construcción del flujo de caja
de un proyecto en el capítulo 6 se hizo una
simulación para algunas variables: aumento en precios de
venta, en precios de compra, en volumen de ventas y en tasa de
inflación. El programa utilizado en estos dos ejemplos
está disponible en el archivo SIMULACION.XLS. Allí
hay otros ejemplos. En el ejemplo del flujo de caja del
capítulo 7 (INFLACIÓN.XLS), las distribuciones
utilizadas y los resultados de la simulación fueron los
siguientes:

Monografias.com

NUMERO DE
SIMULACIONES

PROBABILIDAD DE
FRACASO

1

0.00%

10

10.00%

20

25.00%

40

12.50%

80

10.00%

90

10.00%

95

11.58%

100

8.00%

150

8.00%

200

11.50%

250

8.40%

En la tabla anterior, se puede observar que a partir de
100 simulaciones la probabilidad de fracaso se encuentra
alrededor de 8%.Por ejemplo, si se estipularan los siguientes
parámetros para el ejemplo anterior, se
tendría:

Z

2,326341931

E

0,50%

DESVIACIOEN
ESTANDAR

3,38%

N

247,993383

O sea, que una corrida de 250 simulaciones
proporcionaría un buen estimado de la probabilidad de
fracaso. Una vez calculado el nivel de riesgo como la
probabilidad de fracaso de un proyecto, esto es, la probabilidad
de que el proyecto tenga un VPN menor que cero, puede calcularse
el valor esperado del VPN y la desviación estándar
y la probabilidad de fracaso. Ésta tiene implícita
la relación entre la magnitud de los beneficios del
proyecto, el VPN esperado y su desviación estándar.
De manera que es posible tener un proyecto con menor VPN esperado
y menor desviación estándar y ser más
deseable que otro con mayor VPN esperado y mayor
desviación estándar. Por ejemplo, si se supone que
la distribución del VPN es normal, entonces los siguientes
proyectos quedarían ordenados así:

Vpn esperado

Desviación
estándar

Probabilidad de fracaso
%

1.000

250

0,003

350

100

0,023

100

30

0,043

500

150

0,043

750

250

0,135

100

35

0,214

250

100

0,621

350

150

0,982

100

45

1,313

750

350

1,606

5000

250

2,275

1.000

500

2,275

500

300

4,779

0

50

50,000

0

100

50,000

-100

100

84,134

-100

50

97,725

-200

100

97,725

-200

50

99,997

Aquí se observa que no es el VPN esperado, ni la
desviación estándar la medida adecuada para ordenar
proyectos bajo riesgo, sino la probabilidad de fracaso
(probabilidad de que el VPN sea menor que cero). Esta
probabilidad es una medida del riesgo. Este ordenamiento coincide
con el llamado coeficiente de variación en
estadística, el cual es el cociente entre el valor
esperado y la desviación estándar de la variable,
en este caso, el VPN. Los decisores tienden a ser aversos al
riesgo y como se estudió en el capítulo 2, a mayor
riesgo, se espera mayor rentabilidad. Sin embargo, habrá
quienes estén dispuestos asumir un mayor riesgo (mayor
probabilidad de fracaso) si el valor esperado del VPN es lo
suficientemente grande. Esto se tratará inmediatamente:
las actitudes hacia el riesgo.

ACTITUDES HACIA EL RIESGO

Hay gente que juega lotería o ruleta, hay quienes
son toreros o astronautas; otros aceptan gerencias empresas
quebradas, otros se atreven a ser rectores universitarios, hay
empresarios visionarios (y exitosos), hay eternos enamorados que
se entregan por completo, etcétera. Por el otro lado, hay
quienes se resignan a un cómodo empleo que no presenta
retos, ni amenazas, hay quienes nunca juegan y nunca serán
espontáneos en una plaza de toros, otros, como un
columnista de la página económica de un
periódico, dice que «una buena inversión debe
hacerse teniendo en cuenta que no quite el sueño, aunque
no de para comer muy bien» y hay, por último,
algunos que nunca salen de sí mismos porque les da miedo
la entrega total. Todas estas diferencias en el comportamiento
humano se deben a las diferentes actitudes hacia el riesgo.
Cuando en un curso universitario se plantea el problema de un
juego con probabilidad 0,5 de ganar $0 y 0,5 de ganar $1.000 y se
pregunta qué cuánto dinero daría cada
estudiante por participar en él; la respuesta es $500. Al
analizar más el problema y someter al interrogado la
confrontaciones y escogencia, se encuentra que la cifra no es
$500, sino otra muy diferente. La primera cifra ($500) se
denomina valor esperado monetario. Valor esperado monetario de
una decisión es el promedio ponderado de todos los valores
que pueden resultar y que corresponden a todos y cada uno de los
resultados posibles, dado que el decisor ha optado por elegir una
alternativa. Se dice, en general, que cuando hay poco dinero en
juego, la gente decide de acuerdo con el valor esperado del juego
y trata de decidirse por la alternativa que lo maximiza, pero en
muchos casos la gente no decide por el valor esperado monetario
(VEM). Para aquellos que dudan acerca de la forma de tomar
decisiones cuando está involucrado el azar (decisiones
bajo riesgo), se propone el análisis de dos casos: uno
hipotético (la paradoja de San Petersburgo) y uno real,
cualquiera de las loterías que se venden en el
país, véanse tablas de los ejemplos 5 y
6.

Ejemplo 7:

La paradoja de san petersburgo

Se proponen las siguientes alternativas:

A: Un regalo, libre de impuestos, de $10.000.

B: Un pago de 2n centavos, donde n es el
número de veces que se lanza una moneda al aire hasta
cuando aparezca sello. Sólo se puede participar una vez en
el juego y la secuencia de lanzamientos se detiene cuando
aparezca sello por primera vez.

El valor esperado de cada una de las alternativas
es:

Monografias.com

Nadie escogería la alternativa B a pesar de tener
un valor esperado igual a infinito, a menos que haya una gran
propensión al riesgo.

Ejemplo 8:

La lotería de Bogotá

Con la información que se presenta a
continuación se puede calcular el valor esperado de la
Lotería de Bogotá, por ejemplo.

Precio del billete: $3.000

Premios de la lotería.

LOTERÍA DE BOGOTÁ (4 de diciembre de 1997)
Número de series: 150; números de billete: 10.000.
Total de billetes 1.500.000

Cantidad

Tipo de premio

Valor de premio en millones
$

Probabilidad

Valor esperado

1

mayor

1.000

0,0000667%

666,67

2

secos

50

0,0000667%

66,67

2

secos

20

0,0000667%

26,67

100

secos

2

0,0000667%

133,33

49

Secos (el número del mayor
con otro número de serie)

0,5

0,0099333%

49,67

Vr. esperado total

943,00

E (C) = $3.000

E (D = lotería) = $943

Este cálculo se ha hecho suponiendo que todos los
billetes se venden, que no existen impuestos sobre los premios y
desechando las combinaciones como premio mayor y premios secos
por ser despreciables (en valor esperado no alcanzan a sumar un
peso); algunas de las probabilidades de ganar más de un
premio son:

Evento

probabilidad

Premio en millones

Valor esperado en
centavos

Valor esperado

en centavos

Premio mayor y un

seco de 50 millones

4,44444444E-13

1.050

0,0466666666667

4,666667

Premio mayor y dos

secos de 50
millones

2,96296296E-19.

1.100

0,0000000325926

3,2593E-08

Tres secos (dos de 50 y 1 de 20
millones)

2,96296296E-19

120

0,0000000035556

3,5556E-09

Premio mayor y tres

secos (dos de 50 y
1

de 20 millones)

1,97530864E-25

1.120

0,0000000000000

2,2123E-14

Cuatro secos (dos
de

50 y dos de 20

millones)

1,97530864E-25

140

0,0000000000000

2,7654E-15

Premio mayor y

cuatro secos (dos
de

50 y dos de 20

millones)

,31687243E-31

1.140

0,0000000000000

1,5012E-20

Cinco secos (dos de

50 millones, dos de

20 y 1 de 2
millones)

,31687243E-31

142

0,0000000000000

1,87E-21

Como se puede apreciar, el valor esperado de esta
lotería es mucho menor que su precio y, sin embargo, gran
cantidad de personas compran lotería, rifas, hacen
apuestas, etcétera. Hay ejemplos que muestran cómo
la gente no toma decisiones tratando de maximizar el VEM. Una
evidencia cotidiana es la gente que compra rifas y
loterías. Todos saben que el valor esperado de la
lotería es muy inferior al precio que se paga por ella. De
hecho, si no fuera así, nadie haría una rifa y no
existirían las loterías. Estos ejemplos ilustran la
idea de que bajo riesgo, muchas personas no tratan de maximizar
el valor esperado de sus ganancias. O sea, que entran en juego
otros factores. Ante situaciones como éstas, los
estudiosos del tema han presentado teorías que permiten
explicar (teorías descriptivas) o predecir el
comportamiento de un individuo en particular cuando se encuentra
enfrentado a decisiones bajo riesgo o incertidumbre reducida a
riesgo, por medio del cálculo de probabilidades
subjetivas. Estas reflexiones obligan a preguntarse cómo
se explica, entonces, el proceso de decisión. La
teoría expuesta ofrece esta explicación, aunque con
limitaciones. En términos más sencillos: cada
individuo cuando se enfrenta a situaciones de riesgo, puede
asignar un valor a cada una de las alternativas que analiza.
Estos son los índices de utilidad cardinal.

La relación funcional entre valores de dinero y
los índices de utilidad cardinal no es lineal en general.
La no linealidad obedece a que muchas personas no toman
decisiones basadas en la maximización del VEM (criterio
bayesiano de decisión). Sin embargo, cuando a las
alternativas se les han asignado índices de utilidad,
entonces sí se puede aplicar el criterio bayesiano de
decisión. O sea, el individuo trata de maximizar el valor
esperado de su índice de utilidad. Esta teoría
parece ser aceptable a corto plazo: cuando el individuo tiene que
tomar la decisión y los resultados son inmediatos. Puede
no ser válida cuando la decisión implica resultados
futuros. Las personas pueden ser aversa, propensas o indiferentes
al riesgo. Una persona que esté dispuesta a pagar por
jugar una lotería podrá

Determinar su actitud al riesgo, según el monto
que pague.

  • 1.  Propensión al riesgo: Una
    persona totalmente propensa al riesgo, enfrentada ante el
    siguiente juego: $0 con probabilidad 0,5 y $10.000 con
    probabilidad 0,5, estará dispuesta a pagar más
    del valor esperado del juego por participar en él. O
    sea, pagará más de $5.000 por participar en
    este juego.

  • 2. Aversión al riesgo: Si esa
    misma persona fuera totalmente aversa al riesgo y se enfrenta
    a la misma situación, pagará menos del valor
    esperado del juego por participar en él. O sea
    pagará menos de $5.000.

  • 3.  Indiferencia al riesgo: Si la
    mencionada persona fuera indiferente al riesgo,
    pagaría exactamente $5.000 por participar en el juego.
    En la realidad las personas no son, ni totalmente aversas, ni
    totalmente propensas al riesgo. Existe alguna evidencia
    empírica de que hay rangos de valores en los cuales
    las personas son aversas al riesgo, Y rangos en los cuales
    son propensas al riesgo. También parece existir
    evidencia de que los individuos tienden a ser propensos al
    riesgo cuando hay en juego pequeñas sumas de dinero
    (el caso de las loterías, que además dividen el
    billete en fracciones de bajo costo) y aversos cuando las
    sumas de dinero son altas.

Árboles de
decisión

Se han desarrollado muchas técnicas para
facilitar el proceso de decisión en la
organización; este desarrollo se ha producido por el
problema del desconocimiento del futuro, por lo menos hasta
nuestros días. Una de estas técnicas de ayuda es
comúnmente conocida como árboles de
decisión
. Esta técnica es un método
conveniente para presentar y analizar una serie de decisiones que
se deben tomar en diferentes momentos. Aunque el enfoque de
árboles de decisión fue utilizado dentro del
contexto de la teoría de la probabilidad, Magee (1964a,
1964b) fue el primero en utilizar el concepto para tratar el
problema de las decisiones de inversión de capital;
posteriormente Hespos y Strassmann (1965) propusieron, con
algún detalle, combinar el análisis del riesgo,
propuesto por Hertz (1964) y Hillier (1963), con la
técnica de los árboles de decisión (debe
aclararse que Magee había previsto la combinación
de estos enfoques cuando planteó la utilización de
los árboles de decisión); en 1968 Raiffa (1968)
desarrolló en forma detallada y muy clara la teoría
de la decisión, donde se incluye la técnica
propuesta por Magee y en general todo lo relacionado con las
decisiones bajo riesgo. Aquí se presenta lo relacionado
con los árboles de decisión dentro de los
planteamientos de los mencionados autores. Sin embargo, se hace
con la salvedad de que es una herramienta útil para
visualizar las diferentes alternativas que se presentan al
decisor y para un mejor tratamiento probabilístico; pero
de ahí a creer que se pueda utilizar como herramienta que
involucre conceptos como la teoría de la utilidad, hay un
largo trecho. Los árboles de decisión son muy
útiles para el planteamiento de problemas secuenciales,
pero esta clase de situaciones implica decisiones con resultados
hacia el futuro que, en términos de comportamiento del
decisor, no se ha definido con claridad cómo
manejarlos.

En un árbol de decisiones hay nodos y ramas.
También se observa que hay líneas rectas —las
ramas— cuadrados —los nodos o puntos de
decisión— y círculos —los nodos o
puntos de azar—.

Las ramas que se extienden de los nodos indican las
alternativas que se pueden tomar, en el caso de nodos de
decisión, o los diferentes resultados de un evento en el
caso de los nodos de azar. En este último caso cada rama
tiene asociada una probabilidad de ocurrencia. Esta probabilidad
es una medida de la posibilidad de que ese evento ocurra. La suma
de las probabilidades de las ramas que parten de cada nodo de
evento es igual a uno. O sea, se supone que los eventos son
exhaustivos; a los nodos de decisión no se les asignan
probabilidades, ya que en esos puntos el decisor tiene el control
y no es un evento aleatorio, sujeto al azar. La secuencia
óptima de decisiones se encuentra comenzando a la derecha
y avanzando hacia el origen del árbol. En cada nodo se
deben calcular un VPN esperado. Si el nodo es un evento, este VPN
se calcula para todas las ramas que salen de ese nodo. Si el nodo
es un punto de decisión, el VPN esperado se calcula para
cada una de las ramas y se selecciona el más elevado. En
cualquiera de los dos casos, el VPN esperado se lleva
hasta el siguiente evento multiplicado por la probabilidad
asociada a la rama por donde se viaja.

Incertidumbre Total:

Puede ser posible q en ciertas situaciones decisorias,
asignar probabilidades de ocurrencia de eventos futuros. a menudo
no se tienen a la disposición datos significativos a
partir de los cuales podamos calcular unas
probabilidades.

Cuando no se disponen de estas probabilidades que pueden
asignarse a estos eventos futuros, la decisión se denomina
como toma de decisiones bajo incertidumbre. Esta situación
decisoria es más abstracta al compararse con la toma de
decisiones bajo certeza o bajo riesgo, las decisiones3 bajo
incertidumbre de manera formal se estudian mediante la
aplicación de métodos que vamos a conocer a
continuación:

Cuando se toma una decisión bajo una completa
incertidumbre de los hechos que puedan o no ocurrir en el futuro,
se saben que estos pueden afectar de manera positiva, nula e
intermedia nuestro proyecto, haciéndolo viable, o
improductivo dependiendo del caso.

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter